Language and Robotics研究会
Large Language Model
ロボットシステム
TRAIL(Tokyo Robotics and AI Lab)
ロボット基盤モデル
Language and Robotics研究会
https://sites.google.com/view/language-and-robotics/
PaLM-SayCan
https://sites.research.google/palm-saycan
Speeding up RL w/ LLMs Reading Manuals
https://twitter.com/johnjnay/status/1633272031461400579?s=20
LLMs + Grounded Models = Better Robot Control
https://twitter.com/johnjnay/status/1631674493780238337?s=20
MSの公開してるChatGPTでRobot制御するやつ
https://twitter.com/gclue_akira/status/1631132640672874496?s=20
https://pc.watch.impress.co.jp/docs/news/1482261.html
ロボット開発のためのChatGPT
https://note.com/npaka/n/nbdeb94f48b00
https://twitter.com/Toukairinn_FUZZ/status/1634965448050765827?s=20
行動制御や行動計画に関しては,使い物になるか怪しいレベルのものしかできないでしょうけど,インターフェースを担うツールとして役立つ可能性が高そうですね(LLMに詳しくないのでわからないですけど).
そうなんだよなあ・・
https://twitter.com/hakuturu583/status/1635071100404264960?s=20
制御にはLLMとかいらんやろと思いますが、行動計画には使えると思いますよ。
これしてこれして次にこれするみたいなタスクの順番を決めたりする行動計画には使える気がしています。
RT-1とかsocratic modelsなどの研究に対する激しい違和感はそこですね、tragectoryレベルで生成する必要性は皆無だと思います。
多分マルチモーダルなモデルだからこういうのもできるよ!と言いたいんだと思います。
vision&languageの研究は今かなり加速度的に進んでいるのでそこの知見も使えるでしょうし。
ただ経路まで生成するのはロボットの計画というタスクの性質考慮する筋が良くないと思います。
納得感エグい
事前学習済み視覚-言語モデルからロボットの認識行動に向けてどう情報抽出するかを簡単にまとめた論文を公開しました(昨年8月に執筆).
https://twitter.com/KKawaharazuka/status/1635191055216947203?s=20
基盤モデルとロボティクス
https://speakerdeck.com/mertcooking/foundation-model-and-robotics-ji-pan-moderutoroboteikusu?slide=53
LLM、だいたいこんな感じの方向でいくぞ、という方向性決めるビヘイビアプランナーに使えるのかもなあという印象だけがある, ローカルプランナーに使うには遅すぎるしそもそもそんなものを持ち出す必要性がない
https://twitter.com/hakuturu583/status/1637825176858664961?s=20
https://twitter.com/ko1_baseba11/status/1635288919326736389?s=20
すごい単純だけど、ROS2のナビゲーションとChatGPT APIを使って自然言語からのナビゲーションを試してる
「(X,Y)に移動する(進む、戻る)」等の指示で移動することができています!
VIMA
https://twitter.com/andyzengtweets/status/1636376881162493957?s=20
Can robots 🤖 to navigate to sounds 🔊 they've heard?
w/ audio-language 🔊✏️ foundation models, excited that we can now ask our helper robots to "go to where you heard coughing"
Audio-Visual-Language Maps w/
@huang_chenguang
@oier_mees
@wolfram_burgard
: https://avlmaps.github.io
実世界にグラウンドされた自然言語理解のこれまでとこれから
http://lotus.kuee.kyoto-u.ac.jp/~kurita/LangRobo_kurita_202208.pdf
Lang&Robo Slides
https://naoya-i.github.io/
https://twitter.com/shosakaino/status/1676245508661317633?s=20
先日のLangRobot研究会の動画が配信されてますので、見逃した人、見返したい人はぜひどうぞ。
https://youtu.be/qBNu5z0KGCY
その他、発表資料や当日回答できなかった質問についても公開されています。
ロボットの大規模言語モデル応用が次のフェーズへ、Stanfordが革新的技術
https://xtech.nikkei.com/atcl/nxt/mag/rob/18/012600001/00133/?fbclid=IwAR1I4bZTQ5X-tZaGR6ASDTl12os205pdlsgrK7Z0_pvmmqZeaVNjBk0-ZVw_aem_AcPlGvNgsbmnTbgKWEnj4UX1F9Tr-h0r0nEDksTjIfdAxcgUnq1UBHeATl8JIc0Fceb4Hup87PnDnuEDLWHCfdyN